PCSS – Polski superkomputer
Ręka w górę kto wie co oznacza skrót PCSS! Niewiele widzę osób wiedzących, o co chodzi, ale nie martwcie się, już tłumaczę te cztery literki – PCSS to nic innego jak Poznańskie Centrum Superkomputerowo-Sieciowe.
PCSS znajduje się w gronie polskich Centrów Komputerów Dużej Mocy i zarządza siecią PIONIER – Polski Internet Optyczny, łączącą uczelnie oraz instytuty badawcze, wykorzystując przy tym sieci miejskie. Poznański ośrodek zajmuje się głównie dostarczaniem „infrastruktury obliczeniowej oraz zaawansowanych usług związanych z przetwarzaniem danych czy udostępnianiem systemów archiwizacji o dużych pojemnościach”. Jest to więc wysoce wyspecjalizowane centrum superkomputerowe, jedno z najnowocześniejszych oraz najbardziej innowacyjnych w Polsce. Aktualnie obszar jaki zajmuje tamtejszy superkomputer wynosi około 300 metrów kwadratowych oraz pobiera w przybliżeniu 0,5 megawata mocy. Może się to wydawać dużo, lecz nie dla panów z Poznania – są oni właśnie w trakcie odbioru technicznego nowego kompleksu, w którym zasilanie pochłonie około 16 megawatów.
Wczoraj, czyli 12.02.15, miałem przyjemność wysłuchać wykładu przedstawiciela PCSS, Pana Radosława Januszewskiego, w ramach konferencji na temat Data Center zorganizowanej w warszawskim Businessman Institute. W czasie swojego wystąpienia przedstawił on pokrótce różne technologie oraz sposoby zastosowania ich w dużych serwerowniach. Oczywiście dla laików, czyli między innymi dla mnie, wykład mógłby wydawać się lekko nudnawy, jednak referent postarał się przedstawić kilka praktycznych wniosków wynikających z doświadczeń, które zdobył w trakcie wieloletniej pracy z superkomputerami.
Jak wiadomo, albo i nie wiadomo, jednym z większych kosztów operacyjnych serwerów jest pobór mocy oraz chłodzenie. Problemy te, jak wynikało z prezentacji, dość długo trapiły poznańskich specjalistów – eksperymentowali z różnego rodzaju serwerami i ich konfiguracjami czy sposobami chłodzenia. Ostatecznie, poprzez zastosowanie płynu o wysokiej temperaturze osiągającej 45-50 stopni Celsjusza, udało im się osiągnąć dość spektakularny wynik, obniżając pobór mocy na cooling z 30% ogólnego zużycia do około 2% przy jednoczesnym zmniejszeniu ilości prądu potrzebnej do pracy superkomputera.
Kolejną ważną kwestią, jaką poruszył pan Januszewski w swym wykładzie, było bezpieczeństwo. Nie chodzi tu o to, o czym myślicie, czyli bezpieczeństwie sieci, o którym w sumie też wspominał, ale to zasadniczo nudy. Prelegentowi chodziło o fizyczne zabezpieczenie serwerowni i skuteczne przeciwdziałanie pożarom. Właśnie kwestia możliwego zapalenia się superkomputera oraz związana z nią bezpowrotna utrata danych spędzała sen z oczu tamtejszych informatyków. Jednym z rozpatrywanych sposobów na zabezpieczenia przeciwpożarowe było zastosowanie systemu gazowego, jednak po konsultacjach z amerykańskimi kolegami porzucono ten pomysł. Referent przytoczył w tym miejscu historię pewnej serwerowni, w której stosowano gazowy sposób gaszenia. System w wyniku błędnego uruchomienia spowodował eksplozję i dosłownie wywalił jedną ze ścian budynku, co skutkowało ogromnymi stratami materialnymi. Trzeba przyznać, że historia taka skutecznie odstraszy każdego od stosowania gazu w swoich centrach danych. Ostatecznie po wielu próbach, testach i konsultacjach specjaliści z PCSS zdecydowali się korzystać z systemu gaszenia za pomocą pary wodnej. Główne korzyści wynikające z zastosowania tego rozwiązania to brak możliwości przypadkowego uruchomienia systemu oraz fakt, iż system ten nie niszczy urządzeń serwerowni.
Głównym wnioskiem, jaki wyciągnąłem z tej dość krótkiej pogadanki o serwerach, było to, żeby nie wierzyć dostawcom gotowych rozwiązań w kwestii ich teoretycznej energooszczędności oraz sposobów chłodzenia i zabezpieczeń, ponieważ w praktyce rzadko są one zgodne z prawdą.
Źródło: wiki, konferencja Data Center